28 research outputs found

    Advancing Operating Systems via Aspect-Oriented Programming

    Get PDF
    Operating system kernels are among the most complex pieces of software in existence to- day. Maintaining the kernel code and developing new functionality is increasingly compli- cated, since the amount of required features has risen significantly, leading to side ef fects that can be introduced inadvertedly by changing a piece of code that belongs to a completely dif ferent context. Software developers try to modularize their code base into separate functional units. Some of the functionality or “concerns” required in a kernel, however, does not fit into the given modularization structure; this code may then be spread over the code base and its implementation tangled with code implementing dif ferent concerns. These so-called “crosscutting concerns” are especially dif ficult to handle since a change in a crosscutting concern implies that all relevant locations spread throughout the code base have to be modified. Aspect-Oriented Software Development (AOSD) is an approach to handle crosscutting concerns by factoring them out into separate modules. The “advice” code contained in these modules is woven into the original code base according to a pointcut description, a set of interaction points (joinpoints) with the code base. To be used in operating systems, AOSD requires tool support for the prevalent procedu- ral programming style as well as support for weaving aspects. Many interactions in kernel code are dynamic, so in order to implement non-static behavior and improve performance, a dynamic weaver that deploys and undeploys aspects at system runtime is required. This thesis presents an extension of the “C” programming language to support AOSD. Based on this, two dynamic weaving toolkits – TOSKANA and TOSKANA-VM – are presented to permit dynamic aspect weaving in the monolithic NetBSD kernel as well as in a virtual- machine and microkernel-based Linux kernel running on top of L4. Based on TOSKANA, applications for this dynamic aspect technology are discussed and evaluated. The thesis closes with a view on an aspect-oriented kernel structure that maintains coherency and handles crosscutting concerns using dynamic aspects while enhancing de- velopment methods through the use of domain-specific programming languages

    Information Visualization Techniques for Metabolic Engineering

    No full text
    The main purpose of metabolic engineering is the modification of biological systems towards specific goals using genetic manipulations. For this purpose, models are built that describe the stationary and dynamic behaviour of biochemical reaction networks inside a biological cell. Based on these models, simulations are carried out with the intention to understand the cell's behaviour. The modeling process leads to the generation of large amounts of data, both during the modeling itself and after the simulation of the created models. The manual interpretation is almost impossible; consequently, appropriate techniques for supporting the analysis and visualization of these data are needed. The purpose of this thesis is to investigate visualization and data mining techniques to support the metabolic modeling process. The work presented in this thesis is divided into several tracks: -Visualization of metabolic networks and the associated simulation data. Novel visualization techniques will be presented, which allow the visual exploration of metabolic network dynamics, beyond static snapshots of the simulated data plots. Node-link representations of the metabolic network are animated using the time series of metabolite concentrations and reaction rates. In this way, bottlenecks and active parts of metabolic networks can be distinguished. Additionally, 3D visualization techniques for metabolic networks are explored for cross-free drawing of the networks in 3D visualization space. Steerable drawing of metabolic networks is also investigated. In contrast to other approaches for drawing metabolic networks, user guided drawing of the networks allows the creation of high quality drawings by including user feedback in the drawing process. -Comparison of XML/SBML files. SBML (Systems Biology Markup Language) has become ubiquitous in metabolic modeling, serving the storage and exchange of models in XML format. Generally, the modeling process is an iterative task where the next generation model is a further development of the current model, resulting in a family of models stored in SBML format. The SBML format, however, includes a great deal of information, from the structure of the biochemical network to parameters of the model or measured data. Consequently, the CustX-Diff algorithm for a customizable comparison of XML files will be introduced. By customizing the comparison process through the specification of XPath expressions, an adaptable change detection process is enabled. Thus, the comparison process can be focused on specific parts of a XML/SBML document, e.g. on the structure of a metabolic network. -Visual exploration of time-varying sensitivity matrices. Sensitivity analysis is a special method used in simulation to analyze the sensitivity of a model with respect to its parameters. The results of sensitivity analysis of a metabolic network are large time-varying matrices, which need to be properly visualized. However, the visualization of time-varying high-dimensional data is a challenging problem. For this purpose, an extensible framework is proposed, consisting of existing and novel visualization methods, which allow the visual exploration of time-varying sensitivity matrices. Tabular visualization techniques, such as the reorderable matrix, are developed further, and algorithms for their reordering are discussed. Existing and novel techniques for exploring proximity data, both in matrix form and projected using multi-dimensional scaling (MDS), are also discussed. Information visualization paradigms such as focus+context based distortion and overview+details are proposed to enhance such techniques. -Cluster ensembles for analyzing time-varying sensitivity matrices. A novel relationship-based cluster ensemble, which relies on the accumulation of the evolving pairwise similarities of objects (i.e. parameters) will be proposed, as a robust and efficient method for clustering time-varying high-dimensional data. The time-dependent similarities, obtained from the fuzzy partitions created during the fuzzy clustering process, are aggregated, and the final clustering result is derived from this aggregation

    PrÀ- und postoperative Segmentierung und virtuelles Stenting von Aneurysmen und Stenosen

    No full text
    Die medizinische Bildverarbeitung hat in den letzten Jahren sehr an Bedeutung gewonnen, vor allem in den verschiedenen Phasen der Behandlung somatischer Erkrankungen. Bei Diagnose, Monitoring, Therapieplanung und DurchfĂŒhrung bis zur Kontrolle werden medizinische Entscheidungen durch Computer unterstĂŒtzt. In dieser Arbeit werden BeitrĂ€ge zur computergestĂŒtzten Behandlung von GefĂ€ĂŸerkrankungen – krankhafte GefĂ€ĂŸerweiterungen (Aneurysmen) und krankhafte GefĂ€ĂŸverengungen (Stenosen) – geleistet. Es wird bei operativen Eingriffen zur Behandlung dieser GefĂ€ĂŸerkrankungen zwischen zwei Verfahren unterschieden: der offenen und der minimal-invasiven (endovaskulĂ€ren) Operation bzw. Behandlung. Der Schwerpunkt dieser Arbeit liegt auf der computergestĂŒtzten Optimierung von endovaskulĂ€ren Behandlungen. Im Fall einer endovaskulĂ€ren Behandlung ist es besonders wichtig, anhand der kritischen Patientendaten eine geeignete Prothese (Stent) möglichst akkurat und in kĂŒrzester Zeit auszuwĂ€hlen. Dabei muss die Auswahl vor dem Eingriff erfolgen (prĂ€operativ), da der Stent wĂ€hrend der Operation nicht mehr ohne eine offene Operation gewechselt werden kann. Ist ein Stent eingesetzt, sind regelmĂ€ĂŸige Nachuntersuchungen erforderlich, um zum Beispiel das Auftreten von Löchern in der Prothese (Endoleaks) oder das Verschieben der Prothese (Stent Migration) rechtzeitig zu erkennen. FĂŒr die einzelnen Phasen von Diagnose, Therapieplanung und Kontrolle einer GefĂ€ĂŸerkrankung werden in dieser Dissertation verschiedene Methoden zur Segmentierung entwickelt und vorgestellt. Mit ihnen ist es möglich, Aneurysmen und Stenosen vor und nach einem operativen Eingriff zu ĂŒberwachen und den behandelnden Arzt bei diesen zum Teil sehr zeitaufwendigen Prozeduren zu unterstĂŒtzen. Die unterschiedlichen Segmentierungsmethoden basieren auf den Verfahren der Aktiven Konturen, Active Appearance Models sowie einem graphbasierten Ansatz. Dabei hat der graphbasierte Ansatz die besten Ergebnisse geliefert, ein Prototyp zur klinischen Evaluation wurde bereits realisiert. Die Behandlungsplanung wiederum wird durch eine rechnergestĂŒtzte Simulation von Stents (virtuelles Stenting) vor dem Eingriff optimiert. Im derzeitigen klinischen Alltag wird ein Stent anhand von CT-Aufnahmen ausgewĂ€hlt. Mit dem virtuellen Stenting aus dieser Arbeit können verschiedene Stents zusĂ€tzlich in den realen Patientendaten aus der klinischen Routine simuliert werden. Dabei wird ersichtlich, ob der ausgewĂ€hlte Stent die passenden Dimensionen hat und bei der Operation zum Einsatz kommen sollte. Die Stent-Simulation beruht auf dem Verfahren der Aktiven Konturen im Dreidimensionalen und ist sowohl fĂŒr nicht verzweigte als auch fĂŒr verzweigte Stents (Y-Stents) geeignet. Unter anderem werden fĂŒr eine realistische Simulation, die bei Y-Stents auftretenden KollisionskrĂ€fte in der Verzweigung berĂŒcksichtigt. Außerdem wurde ein Ansatz fĂŒr das virtuelle Stenting im Karotisbereich entwickelt, der ein elastisches Verhalten der GefĂ€ĂŸwand bei einer Stent-Expansion modelliert. Weiterhin ist im Bereich der rechnergestĂŒtzten Simulation ein Verfahren zur Simulation eines Katheterpfades entstanden. Der Katheterpfad wird hierbei in zwei Schritten bestimmt. In einem ersten Schritt wird ein initialer Pfad mit einem modifizierten Dijkstra-Algorithmus zur Bestimmung des kĂŒrzesten Pfades zwischen zwei Punkten berechnet. In einem zweiten Schritt wird dann dieser Pfad mit einem Aktiven Konturmodell innerhalb des GefĂ€ĂŸes ausgerichtet. Diese verschiedenen Verfahren werden in der vorliegenden Arbeit im Detail vorgestellt und anhand von Phantomdaten und realen Patientendaten evaluiert. Außerdem werden die klinischen Prototypen prĂ€sentiert, die auf den Verfahren aufbauen

    Runtime Adaptation of Scientific Service Workflows

    No full text
    Software landscapes are rather subject to change than being complete after having been built. Changes may be caused by a modified customer behavior, the shift to new hardware resources, or otherwise changed requirements. In such situations, several challenges arise. New architectural models have to be designed and implemented, existing software has to be integrated, and, finally, the new software has to be deployed, monitored, and, where appropriate, optimized during runtime under realistic usage scenarios. All of these situations often demand manual intervention, which causes them to be error-prone. This thesis addresses these types of runtime adaptation. Based on service-oriented architectures, an environment is developed that enables the integration of existing software (i.e., the wrapping of legacy software as web services). A workflow modeling tool that aims at an easy-to-use approach by separating the role of the workflow expert and the role of the domain expert. After the development of workflows, tools that observe the executing infrastructure and perform automatic scale-in and scale-out operations are presented. Infrastructure-as-a-Service providers are used to scale the infrastructure in a transparent and cost-efficient way. The deployment of necessary middleware tools is automatically done. The use of a distributed infrastructure can lead to communication problems. In order to keep workflows robust, these exceptional cases need to treated. But, in this way, the process logic of a workflow gets mixed up and bloated with infrastructural details, which yields an increase in its complexity. In this work, a module is presented that can deal automatically with infrastructural faults and that thereby allows to keep the separation of these two layers. When services or their components are hosted in a distributed environment, some requirements need to be addressed at each service separately. Although techniques as object-oriented programming or the usage of design patterns like the interceptor pattern ease the adaptation of service behavior or structures. Still, these methods require to modify the configuration or the implementation of each individual service. On the other side, aspect-oriented programming allows to weave functionality into existing code even without having its source. Since the functionality needs to be woven into the code, it depends on the specific implementation. In a service-oriented architecture, where the implementation of a service is unknown, this approach clearly has its limitations. The request/response aspects presented in this thesis overcome this obstacle and provide a SOA-compliant and new methods to weave functionality into the communication layer of web services. The main contributions of this thesis are the following: Shifting towards a service-oriented architecture: The generic and extensible Legacy Code Description Language and the corresponding framework allow to wrap existing software, e.g., as web services, which afterwards can be composed into a workflow by SimpleBPEL without overburdening the domain expert with technical details that are indeed handled by a workflow expert. Runtime adaption: Based on the standardized Business Process Execution Language an automatic scheduling approach is presented that monitors all used resources and is able to automatically provision new machines in case a scale-out becomes necessary. If the resource's load drops, e.g., because of less workflow executions, a scale-in is also automatically performed. The scheduling algorithm takes the data transfer between the services into account in order to prevent scheduling allocations that eventually increase the workflow's makespan due to unnecessary or disadvantageous data transfers. Furthermore, a multi-objective scheduling algorithm that is based on a genetic algorithm is able to additionally consider cost, in a way that a user can define her own preferences rising from optimized execution times of a workflow and minimized costs. Possible communication errors are automatically detected and, according to certain constraints, corrected. Adaptation of communication: The presented request/response aspects allow to weave functionality into the communication of web services. By defining a pointcut language that only relies on the exchanged documents, the implementation of services must neither be known nor be available. The weaving process itself is modeled using web services. In this way, the concept of request/response aspects is naturally embedded into a service-oriented architecture

    Cross-Layer Cloud Performance Monitoring, Analysis and Recovery

    No full text
    The basic idea of Cloud computing is to offer software and hardware resources as services. These services are provided at different layers: Software (Software as a Service: SaaS), Platform (Platform as a Service: PaaS) and Infrastructure (Infrastructure as a Service: IaaS). In such a complex environment, performance issues are quite likely and rather the norm than the exception. Consequently, performance-related problems may frequently occur at all layers. Thus, it is necessary to monitor all Cloud layers and analyze their performance parameters to detect and rectify related problems. This thesis presents a novel cross-layer reactive performance monitoring approach for Cloud computing environments, based on the methodology of Complex Event Processing (CEP). The proposed approach is called CEP4Cloud. It analyzes monitored events to detect performance-related problems and performs actions to fix them. The proposal is based on the use of (1) a novel multi-layer monitoring approach, (2) a new cross-layer analysis approach and (3) a novel recovery approach. The proposed monitoring approach operates at all Cloud layers, while collecting related parameters. It makes use of existing monitoring tools and a new monitoring approach for Cloud services at the SaaS layer. The proposed SaaS monitoring approach is called AOP4CSM. It is based on aspect-oriented programming and monitors quality-of-service parameters of the SaaS layer in a non-invasive manner. AOP4CSM neither modifies the server implementation nor the client implementation. The defined cross-layer analysis approach is called D-CEP4CMA. It is based on the methodology of Complex Event Processing (CEP). Instead of having to manually specify continuous queries on monitored event streams, CEP queries are derived from analyzing the correlations between monitored metrics across multiple Cloud layers. The results of the correlation analysis allow us to reduce the number of monitored parameters and enable us to perform a root cause analysis to identify the causes of performance-related problems. The derived analysis rules are implemented as queries in a CEP engine. D-CEP4CMA is designed to dynamically switch between different centralized and distributed CEP architectures depending on the load/memory of the CEP machine and network traffic conditions in the observed Cloud environment. The proposed recovery approach is based on a novel action manager framework. It applies recovery actions at all Cloud layers. The novel action manager framework assigns a set of repair actions to each performance-related problem and checks the success of the applied action. The results of several experiments illustrate the merits of the reactive performance monitoring approach and its main components (i.e., monitoring, analysis and recovery). First, experimental results show the efficiency of AOP4CSM (very low overhead). Second, obtained results demonstrate the benefits of the analysis approach in terms of precision and recall compared to threshold-based methods. They also show the accuracy of the analysis approach in identifying the causes of performance-related problems. Furthermore, experiments illustrate the efficiency of D-CEP4CMA and its performance in terms of precision and recall compared to centralized and distributed CEP architectures. Moreover, experimental results indicate that the time needed to fix a performance-related problem is reasonably short. They also show that the CPU overhead of using CEP4Cloud is negligible. Finally, experimental results demonstrate the merits of CEP4Cloud in terms of speeding up the repair and reducing the number of triggered alarms compared to baseline methods

    Virtual Machine Lifecycle Management in Grid and Cloud Computing

    No full text
    Virtualisierungstechnologie ist die Grundlage fĂŒr zwei wichtige Konzepte: Virtualized Grid Computing und Cloud Computing. Ersteres ist eine Erweiterung des klassischen Grid Computing. Es hat zum Ziel, die Anforderungen kommerzieller Nutzer des Grid hinsichtlich der Isolation von gleichzeitig ausgefĂŒhrten Batch-Jobs und der Sicherheit der zugehörigen Daten zu erfĂŒllen. Dabei werden Anwendungen in virtuellen Maschinen ausgefĂŒhrt, um sie voneinander zu isolieren und die von ihnen verarbeiteten Daten vor anderen Nutzern zu schĂŒtzen. DarĂŒber hinaus löst Virtualized Grid Computing das Problem der Softwarebereitstellung, eines der bestehenden Probleme des klassischen Grid Computing. Cloud Computing ist ein weiteres Konzept zur Verwendung von entfernten Ressourcen. Der Fokus dieser Dissertation bezĂŒglich Cloud Computing liegt auf dem “Infrastructure as a Service Modell”, das Ideen des (Virtualized) Grid Computing mit einem neuartigen GeschĂ€ftsmodell kombiniert. Dieses besteht aus der Bereitstellung von virtuellen Maschinen auf Abruf und aus einem Tarifmodell, bei dem lediglich die tatsĂ€chliche Nutzung berechnet wird. Der Einsatz von Virtualisierungstechnologie erhöht die Auslastung der verwendeten (physischen) Rechnersysteme und vereinfacht deren Administration. So ist es beispielsweise möglich, eine virtuelle Maschine zu klonen oder einen Snapshot einer virtuellen Maschine zu erstellen, um zu einem definierten Zustand zurĂŒckkehren zu können. Jedoch sind noch nicht alle Probleme im Zusammenhang mit der Virtualisierungstechnologie gelöst. Insbesondere entstehen durch den Einsatz in den sehr dynamischen Umgebungen des Virtualized Grid Computing und des Cloud Computing neue Herausforderungen fĂŒr die Virtualisierungstechnologie. Diese Dissertation befasst sich mit verschiedenen Aspekten des Einsatzes von Virtualisierungstechnologie in Virtualized Grid und Cloud Computing Umgebungen. ZunĂ€chst wird der Lebenszyklus von virtuellen Maschinen in diesen Umgebungen untersucht, und es werden Modelle dieses Lebenszyklus entwickelt. Anhand der entwickelten Modelle werden Probleme identifiziert und Lösungen fĂŒr diese Probleme entwickelt. Der Fokus liegt dabei auf den Bereichen Speicherung, Bereitstellung und AusfĂŒhrung von virtuellen Maschinen. Virtuelle Maschinen werden ĂŒblicherweise in so genannten Disk Images, also Abbildern von virtuellen Festplatten, gespeichert. Dieses Format hat nicht nur Einfluss auf die Speicherung von grĂ¶ĂŸeren Mengen virtueller Maschinen, sondern auch auf deren Bereitstellung. In den untersuchten Umgebungen hat es zwei konkrete Nachteile: es verschwendet Speicherplatz und es verhindert eine effiziente Bereitstellung von virtuellen Maschinen. Maßnahmen zur Steigerung der Sicherheit von virtuellen Maschinen haben auf alle drei genannten Bereiche Einfluss. Beispielsweise sollte vor der Bereitstellung einer virtuellen Maschine geprĂŒft werden, ob die darin installierte Software noch aktuell ist. Weiterhin sollte die AusfĂŒhrungsumgebung Möglichkeiten bereitstellen, um die virtuelle Infrastruktur wirksam zu ĂŒberwachen. Die erste in dieser Dissertation vorgestellte Lösung ist das Konzept der Image Composition. Es beschreibt die Komposition eines kombinierten Disk Images aus mehreren Schichten. Dadurch können Teile der einzelnen Schichten, die von mehreren virtuellen Maschinen verwendet werden, zwischen diesen geteilt und somit der Speicherbedarf fĂŒr die Gesamtheit der virtuellen Maschinen reduziert werden. Der Marvin Image Compositor ist die Umsetzung dieses Konzepts. Die zweite Lösung ist der Marvin Image Store, ein Speichersystem fĂŒr virtuelle Maschinen, das nicht auf den traditionell genutzten Disk Images basiert, sondern die darin enthaltenen Daten und Metadaten auf eine effiziente Weise getrennt voneinander speichert. Weiterhin werden vier Lösungen vorgestellt, die die Sicherheit von virtuellen Maschine verbessern können: Der Update Checker ist eine Lösung, die es ermöglicht, veraltete Software in virtuellen Maschinen zu identifizieren. Dabei spielt es keine Rolle, ob die jeweilige virtuelle Maschine gerade ausgefĂŒhrt wird oder nicht. Die zweite Sicherheitslösung ermöglicht es, mehrere virtuelle Maschinen, die auf dem Konzept der Image Composition basieren, zentral zu aktualisieren. Das bedeutet, dass die einmalige Installation einer neuen Softwareversion ausreichend ist, um mehrere virtuelle Maschinen auf den neuesten Stand zu bringen. Die dritte Sicherheitslösung namens Online Penetration Suite ermöglicht es, virtuelle Maschinen automatisiert nach Schwachstellen zu durchsuchen. Die Überwachung der virtuellen Infrastruktur auf allen Ebenen ist der Zweck der vierten Sicherheitslösung. ZusĂ€tzlich zur Überwachung ermöglicht diese Lösung auch eine automatische Reaktion auf sicherheitsrelevante Ereignisse. Schließlich wird ein Verfahren zur Migration von virtuellen Maschinen vorgestellt, welches auch ohne ein zentrales Speichersystem eine effiziente Migration ermöglicht

    An Autonomic Cross-Platform Operating Environment for On-Demand Internet Computing

    No full text
    The Internet has evolved into a global and ubiquitous communication medium interconnecting powerful application servers, diverse desktop computers and mobile notebooks. Along with recent developments in computer technology, such as the convergence of computing and communication devices, the way how people use computers and the Internet has changed peopleÂŽs working habits and has led to new application scenarios. On the one hand, pervasive computing, ubiquitous computing and nomadic computing become more and more important since different computing devices like PDAs and notebooks may be used concurrently and alternately, e.g. while the user is on the move. On the other hand, the ubiquitous availability and pervasive interconnection of computing systems have fostered various trends towards the dynamic utilization and spontaneous collaboration of available remote computing resources, which are addressed by approaches like utility computing, grid computing, cloud computing and public computing. From a general point of view, the common objective of this development is the use of Internet applications on demand, i.e. applications that are not installed in advance by a platform administrator but are dynamically deployed and run as they are requested by the application user. The heterogeneous and unmanaged nature of the Internet represents a major challenge for the on demand use of custom Internet applications across heterogeneous hardware platforms, operating systems and network environments. Promising remedies are autonomic computing systems that are supposed to maintain themselves without particular user or application intervention. In this thesis, an Autonomic Cross-Platform Operating Environment (ACOE) is presented that supports On Demand Internet Computing (ODIC), such as dynamic application composition and ad hoc execution migration. The approach is based on an integration middleware called crossware that does not replace existing middleware but operates as a self-managing mediator between diverse application requirements and heterogeneous platform configurations. A Java implementation of the Crossware Development Kit (XDK) is presented, followed by the description of the On Demand Internet Computing System (ODIX). The feasibility of the approach is shown by the implementation of an Internet Application Workbench, an Internet Application Factory and an Internet Peer Federation. They illustrate the use of ODIX to support local, remote and distributed ODIC, respectively. Finally, the suitability of the approach is discussed with respect to the support of ODIC

    A Multi-objective Genetic Algorithm for Peptide Optimization

    No full text
    The peptide-based drug design process requires the identification of a wide range of candidate molecules with specific biological, chemical and physical properties. The laboratory analysis in terms of in vitro methods for the discovery of several physiochemical properties of theoretical candidate molecules is time- and cost-intensive. Hence, in silico methods are required for this purpose. Metaheuristics like evolutionary algorithms are considered to be adequate in silico methods providing good approximate solutions to the underlying multiobjective optimization problems. The general issue in this area is the design of a multi-objective evolutionary algorithm to achieve a maximum number of high-quality candidate peptides that differ in their genetic material, in a minimum number of generations. A multi-objective evolutionary algorithm as an in silico method of discovering a large number of high-quality peptides within a low number of generations for a broad class of molecular optimization problems of different dimensions is challenging, and the development of such a promising multi-objective evolutionary algorithm based on theoretical considerations is the major contribution of this thesis. The design of this algorithm is based on a qualitative landscape analysis applied on a three- and four-dimensional biochemical optimization problem. The conclusions drawn from the empirical landscape analysis of the three- and four-dimensional optimization problem result in the formulation of hypotheses regarding the types of evolutionary algorithm components which lead to an optimized search performance for the purpose of peptide optimization. Starting from the established types of variation operators and selection strategies, different variation operators and selection strategies are proposed and empirically verified on the three- and four-dimensional molecular optimization problem with regard to an optimized interaction and the identification of potential interdependences as well as a fine-tuning of the parameters. Moreover, traditional issues in the field of evolutionary algorithms such as selection pressure and the influence of multi-parent recombination are investigated

    Secure Session Framework: An Identity-based Cryptographic Key Agreement and Signature Protocol

    No full text
    Die vorliegende Dissertation beschĂ€ftigt sich mit der Methode der identitĂ€tsbasierten VerschlĂŒsselung. Hierbei wird der Name oder die IdentitĂ€t eines Zielobjekts zum VerschlĂŒsseln der Daten verwendet. Diese Eigenschaft macht diese Methode zu einem passenden Werkzeug fĂŒr die moderne elektronische Kommunikation, da die dort verwendeten IdentitĂ€ten oder Endpunktadressen weltweit eindeutig sein mĂŒssen. Das in der Arbeit entwickelte identitĂ€tsbasierte SchlĂŒsseleinigungsprotokoll bietet Vorteile gegenĂŒber existierenden Verfahren und eröffnet neue Möglichkeiten. Eines der Hauptmerkmale ist die komplette UnabhĂ€ngigkeit der SchlĂŒsselgeneratoren. Diese UnabhĂ€ngigkeit ermöglicht es, dass verschiedene SicherheitsdomĂ€nen ihr eigenes System aufsetzen können. Sie sind nicht mehr gezwungen, sich untereinander abzusprechen oder Geheimnisse auszutauschen. Auf Grund der Eigenschaften des Protokolls sind die Systeme trotzdem untereinander kompatibel. Dies bedeutet, dass Anwender einer SicherheitsdomĂ€ne ohne weiteren Aufwand verschlĂŒsselt mit Anwendern einer anderen SicherheitsdomĂ€ne kommunizieren können. Die UnabhĂ€ngigkeit wurde ebenfalls auf ein Signatur-Protokoll ĂŒbertragen. Es ermöglicht, dass Benutzer verschiedener SicherheitsdomĂ€nen ein Objekt signieren können, wobei auch der Vorgang des Signierens unabhĂ€ngig sein kann. Neben dem Protokoll wurde in der Arbeit auch die Analyse von bestehenden Systemen durchgefĂŒhrt. Es wurden Angriffe auf etablierte Protokolle und Vermutungen gefunden, die aufzeigen, ob oder in welchen Situationen diese nicht verwendet werden sollten. Dabei wurde zum einen eine komplett neue Herangehensweise gefunden, die auf der (Un-)Definiertheit von bestimmten Objekten in diskreten RĂ€umen basiert. Zum anderen wurde die bekannte Analysemethode der Gitterreduktion benutzt und erfolgreich auf neue Bereiche ĂŒbertragen. Schlussendlich werden in der Arbeit Anwendungsszenarien fĂŒr das Protokoll vorgestellt, in denen dessen Vorteile besonders relevant sind. Das erste Szenario bezieht sich auf Telefonie, wobei die Telefonnummer einer Zielperson als SchlĂŒssel verwendet. Sowohl GSM-Telefonie als auch VoIP-Telefonie werden in der Arbeit untersucht. DafĂŒr wurden Implementierungen auf einem aktuellen Mobiltelefon durchgefĂŒhrt und bestehende VoIP-Software erweitert. Das zweite Anwendungsbeispielsind IP-Netzwerke. Auch die Benutzung der IP-Adresse eines Rechners als SchlĂŒssel ist ein gutes Beispiel, jedoch treten hier mehr Schwierigkeiten auf als bei der Telefonie. Es gibt beispielsweise dynamische IP-Adressen oder die Methode der textit{Network Address Translation}, bei der die IP-Adresse ersetzt wird. Diese und weitere Probleme wurden identifiziert und jeweils Lösungen erarbeitet

    Secure Communication in Disaster Scenarios

    No full text
    WĂ€hrend Naturkatastrophen oder terroristischer AnschlĂ€ge ist die bestehende Kommunikationsinfrastruktur hĂ€ufig ĂŒberlastet oder fĂ€llt komplett aus. In diesen Situationen können mobile GerĂ€te mithilfe von drahtloser ad-hoc- und unterbrechungstoleranter Vernetzung miteinander verbunden werden, um ein Notfall-Kommunikationssystem fĂŒr Zivilisten und Rettungsdienste einzurichten. Falls verfĂŒgbar, kann eine Verbindung zu Cloud-Diensten im Internet eine wertvolle Hilfe im Krisen- und Katastrophenmanagement sein. Solche Kommunikationssysteme bergen jedoch ernsthafte Sicherheitsrisiken, da Angreifer versuchen könnten, vertrauliche Daten zu stehlen, gefĂ€lschte Benachrichtigungen von Notfalldiensten einzuspeisen oder Denial-of-Service (DoS) Angriffe durchzufĂŒhren. Diese Dissertation schlĂ€gt neue AnsĂ€tze zur Kommunikation in Notfallnetzen von mobilen GerĂ€ten vor, die von der Kommunikation zwischen MobilfunkgerĂ€ten bis zu Cloud-Diensten auf Servern im Internet reichen. Durch die Nutzung dieser AnsĂ€tze werden die Sicherheit der GerĂ€te-zu-GerĂ€te-Kommunikation, die Sicherheit von Notfall-Apps auf mobilen GerĂ€ten und die Sicherheit von Server-Systemen fĂŒr Cloud-Dienste verbessert
    corecore